其他
阿里云发布全球最强开源LLM“Qwen2”:性能超越众多闭源模型、火速登顶HuggingFace
通义千问最新开源LLM——比中国闭源模型们更强的开源模型来了!
Qwen2 亮点省流总结:
- 5个尺寸的预训练和指令微调模型, 包括Qwen2-0.5B、Qwen2-1.5B、Qwen2-7B、Qwen2-57B-A14B以及Qwen2-72B;
- 在中文英语的基础上,训练数据中增加了27种语言相关的高质量数据;
- 多个评测基准上的领先表现;
- 代码和数学能力显著提升;
- 增大了上下文长度支持,最高达到128K tokens(Qwen2-72B-Instruct)。
在中英文之外,模型训练数据中增加了27种语言相关的高质量数据,提升了模型的多语言能力。Qwen2还增大了上下文长度支持,Qwen2-72B-Instruct能够完美处理128k上下文长度内的信息抽取任务。
Reference
https://modelscope.cn/models/qwen/Qwen2-72B/
https://modelscope.cn/models/qwen/Qwen2-72B-Instruct/summary
END
热门文章
- “鸭子数据库”正式发布1.0稳定版:C++引擎代码超30万行
- 刚被微软砍掉的WSA“整活”了——腾讯接盘、还穿上了马甲「AOW」